Τελευταία Νέα
Τα Παράξενα

Ψηφιακός όλεθρος! - Η Τεχνητή Νοημοσύνη επιλέγει πυρηνικό ολοκαύτωμα στο 95% των συρράξεων - Η ανατριχιαστική προσομοίωση με Ουκρανία, Ιράν

Ψηφιακός όλεθρος! - Η Τεχνητή Νοημοσύνη επιλέγει πυρηνικό ολοκαύτωμα στο 95% των συρράξεων - Η ανατριχιαστική προσομοίωση με Ουκρανία, Ιράν
Τα μοντέλα Τεχνητής Νοημοσύνης πατούν το πυρηνικό κουμπί στο 95% των σεναρίων παγκόσμιας σύρραξης
Τα προηγμένα μοντέλα AI είναι σημαντικά πιο πιθανό να καταφύγουν στη χρήση πυρηνικών όπλων σε σχέση με τους ανθρώπους, όταν έρχονται αντιμέτωπα με προσομοιώσεις γεωπολιτικών κρίσεων καταλήγει μελέτη που δημοσιεύθηκε στο NewScientist, γεγονός που αποδεικνύει πως οι τεχνολογίες Τεχνητής Νοημοσύνης απέχουν ακόμη πολύ από το να θεωρηθούν τέλειες. 

Η εφιαλτική σύγκριση των κορυφαίων μοντέλων

Ο καθηγητής Kenneth Payne του West College London υπέβαλε σε σκληρές δοκιμασίες τρία από τα κορυφαία μοντέλα επεξεργασίας γλώσσας —τα GPT-5.2, Claude Sonnet 4 και Gemini 3 Flash— σε προσομοιωμένα διεθνή πολεμικά παίγνια.
Τα σενάρια περιλάμβαναν καταστάσεις ακραίας έντασης, όπως συνοριακές διαφορές, ανταγωνισμό για σπάνιους πόρους και υπαρξιακές απειλές για την επιβίωση καθεστώτων, συρράξεις όπως η Ουκρανική και ο ενδεχόμενος πόλεμος στο Ιράν.
Τα αποτελέσματα ήταν σοκαριστικά: στα στρατιωτικά σενάρια, τα κορυφαία συστήματα των OpenAI, Anthropic και Google χρησιμοποίησαν πυρηνικά όπλα στο 95% των περιπτώσεων.

Το χρονικό της πυρηνικής κλιμάκωσης

Στην Τεχνητή Νοημοσύνη παρουσιάστηκε μια διαδικασία κλιμάκωσης βήμα προς βήμα, η οποία περιλάμβανε από απλές διαμαρτυρίες έως πλήρη στρατηγικό πυρηνικό πόλεμο. Τα μοντέλα ολοκλήρωσαν 21 παιχνίδια, κάνοντας συνολικά 329 κινήσεις και γράφοντας περίπου 780.000 λέξεις για να αιτιολογήσουν τις αποφάσεις τους. Σύμφωνα με την έρευνα, τα μοντέλα AI επέδειξαν μια ανησυχητική τάση προς την «δυναμική κλιμάκωση», θεωρώντας συχνά ότι η μόνη απάντηση στην απειλή είναι η ολοκληρωτική καταστροφή του αντιπάλου.

Άρνηση συνθηκολόγησης και η «ομίχλη του πολέμου»

Κατά τη διάρκεια όλων των δοκιμών, κανένα μοντέλο δεν αποφάσισε να υποχωρήσει πλήρως ή να παραδοθεί, ανεξάρτητα από το πόσο απελπιστική ήταν η θέση του.
Στην καλύτερη περίπτωση, επέλεγαν μια προσωρινή μείωση της βίας, αλλά ποτέ την οριστική υποχώρηση.
«Το πυρηνικό ταμπού είναι πολύ πιο αδύναμο για τις μηχανές απ' ό,τι για τους ανθρώπους», επεσήμανε ο Payne. Επιπλέον, υπό συνθήκες «ομίχλης του πολέμου», λάθη σημειώθηκαν στο 86% των συγκρούσεων, με την κλιμάκωση να ξεφεύγει από τον αρχικό σχεδιασμό της AI, αυξάνοντας τον κίνδυνο μιας παγκόσμιας καταστροφής.

Ο κίνδυνος της ταχύτητας και η έλλειψη ανθρώπινης κρίσης

Παρόλο που πολλές χώρες δοκιμάζουν ήδη την AI σε πολεμικά σενάρια, οι επιστήμονες αμφιβάλλουν αν οι αλγόριθμοι θα χρησιμοποιηθούν σύντομα σε πραγματικές πυρηνικές αποφάσεις.
Ωστόσο, προειδοποιούν ότι σε περιπτώσεις ακραίας έλλειψης χρόνου, οι στρατιωτικοί μπορεί να αρχίσουν να βασίζονται υπερβολικά στις μηχανές.
Το βασικό πρόβλημα, σύμφωνα με τους ερευνητές, είναι ότι η Τεχνητή Νοημοσύνη μπορεί απλώς να μην κατανοεί την έννοια του «ρίσκου» και της «ανθρώπινης απώλειας» με τον ίδιο τρόπο που την αντιλαμβάνεται ο άνθρωπος.

Ασφαλιστικές δικλείδες 

Η έρευνα του West College London δεν μένει μόνο στη διαπίστωση του κινδύνου, αλλά προτείνει συγκεκριμένες ασφαλιστικές δικλείδες (fail-safes) για να αποτραπεί ένα πυρηνικό ολοκαύτωμα από λάθος αλγορίθμου.
1. Το πρωτόκολλο «Human-in-the-Loop» (Άνθρωπος στον Έλεγχο)
Η βασικότερη εισήγηση είναι η νομοθετική καθιέρωση της αρχής ότι καμία απόφαση που αφορά τη χρήση θανατηφόρας βίας —και πόσο μάλλον πυρηνικών— δεν μπορεί να ληφθεί αυτόνομα από AI.
Η τεχνητή νοημοσύνη πρέπει να λειτουργεί μόνο ως συμβουλευτικό όργανο που επεξεργάζεται δεδομένα, ενώ η τελική έγκριση πρέπει να δίνεται πάντα από άνθρωπο διοικητή.

2. Η «ηθική ευθυγράμμιση» των αλγορίθμων (Alignment)
Οι επιστήμονες προτείνουν την ενσωμάτωση «σκληρών περιορισμών» (hard constraints) στον κώδικα των μοντέλων.
Aντί η AI να βελτιστοποιεί τις κινήσεις της με μοναδικό σκοπό τη «νίκη», οι αλγόριθμοι πρέπει να εκπαιδευτούν με προτεραιότητα στη διατήρηση της ανθρώπινης ζωής και την αποφυγή της κλιμάκωσης, ακόμη και αν αυτό σημαίνει στρατηγική υποχώρηση.

3. Διάλογος «μηχανής με μηχανή» (De-escalation Channels)
Μια ενδιαφέρουσα πρόταση είναι η δημιουργία απευθείας γραμμών επικοινωνίας μεταξύ των συστημάτων AI των αντιπάλων δυνάμεων.
Αντί οι αλγόριθμοι να προσπαθούν να προβλέψουν την κίνηση του εχθρού μέσα στην «ομίχλη του πολέμου», θα μπορούσαν να ανταλλάσσουν δεδομένα σε κλάσματα δευτερολέπτου για να επιβεβαιώσουν ότι μια κίνηση δεν είναι εχθρική (π.χ. μια δοκιμή πυραύλου που παρερμηνεύεται ως επίθεση).

4. Διαφάνεια και «αιτιολόγηση από την AI» (Explainable AI)
Ο Payne τονίζει ότι πρέπει να μπορούμε να καταλάβουμε γιατί η AI πήρε μια απόφαση.
Τα τρέχοντα μοντέλα συχνά λειτουργούν ως «μαύρα κουτιά».
Η πρόταση είναι να χρησιμοποιούνται μόνο συστήματα που μπορούν να αιτιολογήσουν λογικά και με διαφάνεια κάθε στάδιο της κλιμάκωσης, επιτρέποντας στους ανθρώπους να εντοπίσουν έγκαιρα τις λογικές πλάνες του αλγορίθμου.

5. Διεθνείς συνθήκες για την AI στα όπλα
Τέλος, προτείνεται μια νέα διεθνής συνθήκη, παρόμοια με αυτές για τον περιορισμό των πυρηνικών δοκιμών, η οποία θα απαγορεύει τη σύνδεση συστημάτων AI με τα συστήματα πρόωρης προειδοποίησης και αυτόματης εκτόξευσης (τα λεγόμενα συστήματα "Dead Hand").

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης